1 朴素 Bayes 法的学习与分类
1.1 基本方法
延续上一章的假设,. . 是的联合概率分布,据此采样得到训练数据集.
朴素Bayes法 是通过学习的方法. 它与 Bayes 估计是不同的概念. “朴素“的得名由来是因为它做出了条件独立性的假设.
联合分布可以由先验分布
和条件分布
得到. 朴素 Bayes 法给出了条件独立性的假设,也即 (2) 可以进一步假设
这样,依据 Bayes定理 计算后验分布
代入于是朴素 Bayes 分类器为
1.2 后验概率最大化的含义
下面我们说明: 朴素 Bayes 法将实例分到后验概率最大的类的做法,与期望风险最小化等价.
事实上,如果 0-1 损失函数
则它对应期望风险函数
对逐个极小化, 得
这就是朴素 Bayes 方法.
2 朴素 Bayes 法的参数估计
2.1 极大似然估计
在朴素 Bayes 法中,我们要学习. 可以用极大似然估计. 首先是先验概率:
(这个结论的推导在 这个例子中)
设第个特征可能的取值的集合为, 则条件概率的极大似然估计为
2.2 学习与分类算法
输入 训练数据, 实例(, 其中, 是第个样本的第个特征, )
输出 的分类
- 计算先验概率和条件概率: (2.1) 和 (2.2).
- 对给定的, 计算
- 确定的类
根据下表学习一个朴素贝叶斯分类器, 并确定的类标记. 取值集合为.
|
1 |
2 |
3 |
4 |
5 |
6 |
7 |
8 |
9 |
10 |
11 |
12 |
13 |
14 |
15 |
|
1 |
1 |
1 |
1 |
1 |
2 |
2 |
2 |
2 |
2 |
3 |
3 |
3 |
3 |
3 |
|
S |
M |
M |
S |
S |
S |
M |
M |
L |
L |
L |
M |
M |
L |
L |
|
-1 |
-1 |
1 |
1 |
-1 |
-1 |
-1 |
1 |
1 |
1 |
1 |
1 |
1 |
1 |
-1 |
解 根据朴素 Bayes 算法直接给出
以及
因此对于给定的 , 计算 其中对应的概率更大, 因此.
2.3 Bayes 估计
Bayes 估计用于规避概率值为 的情形. 具体地, 条件概率的 Bayes 估计为
其中. 当就是极大似然估计; 称为Laplace 平滑. 显然对任意有
先验概率的 Bayes 估计为